EvoClass
IA012
Profundización en modelos de lenguaje grandes
Estudios de caso y estrategias de implementación de modelos de lenguaje grandes (LLM) principales
Objetivos de aprendizaje
- Analizar las diferencias estructurales entre arquitecturas de tipo solo codificador (BERT), solo decodificador (GPT) y codificador-decodificador (T5).
- Explicar el proceso de entrenamiento en tres etapas: preentrenamiento (modelo base), ajuste por instrucciones (SFT) y alineación (RLHF/PPO).
- Comparar el rendimiento, leyes de escalado y innovaciones arquitectónicas de los modelos de lenguaje grandes (LLM) más utilizados, incluyendo GPT, Llama, Qwen y DeepSeek.